AI

Open-Source-AI: Un act de echilibru între transparență și securitate

Dezvoltarea sistemelor de inteligență artificială deschise ia amploare, însă se confruntă cu provocări legate de transparență și siguranță.

Eulerpool News 24 aug. 2024, 15:44

Dezvoltarea Inteligenței Artificiale Open-Source (IA) a câștigat semnificativ în viteză în ultimele luni. Într-un mediu în care companii precum OpenAI și Google investesc miliarde în sisteme de IA din ce în ce mai puternice, modelele deschise au făcut progrese remarcabile. Totuși, în ciuda succesului aparent, se dezvăluie o slăbiciune centrală: multe dintre aceste așa-numite sisteme Open-Source sunt, în realitate, doar parțial deschise.

Un exemplu proeminent este Llama de la Meta. Deși sunt dezvăluite „Weights”-urile, care determină modul în care modelul răspunde la cereri, datele de instruire subiacente rămân ascunse. Acest lucru le permite dezvoltatorilor să ajusteze modelul, dar lipsește transparența necesară pentru a crea modelul de la zero.

Pentru dezvoltatori, această deschidere restrânsă are totuși avantaje. Ei pot adapta modele cvasi-deschise și le pot antrena pe propriile date, fără a trebui să împărtășească informații sensibile altor companii. Dar aceste restricții au un preț. Ayah Bdeir, o consilieră senior la Mozilla Foundation, subliniază faptul că doar tehnologiile cu adevărat deschise permit o înțelegere cuprinzătoare a sistemelor care influențează tot mai mult toate aspectele vieții noastre. În plus, doar sistemele cu adevărat deschise pot asigura că inovația și concurența nu sunt sufocate de un număr mic de companii dominante de Inteligență Artificială.

Ca răspuns, Inițiativa Open Source, care a stabilit definiția pentru software-ul open-source acum peste 20 de ani, a prezentat o definiție aproape finală pentru inteligența artificială open-source. Această definiție solicită nu doar publicarea „Weights”, ci și informații suficiente despre datele de antrenament și codul de bază, pentru a putea reproduce modelul.

Această tendință duce deja la o segmentare mai accentuată în lumea inteligenței artificiale. Multe companii sunt mai prudente cu terminologia lor pentru a evita disputele legale. Astfel, Mistral își numește modelul Nemo „Greutăți Deschise” și evită în mod intenționat termenul „surse deschise”.

În timp ce sistemele parțial deschise se impun, apar și modele complet deschise, precum modelul lingvistic Olmo de la Allen Institute for AI. Cu toate acestea, rămâne de văzut dacă acestea vor avea cu adevărat același impact asupra lumii inteligenței artificiale, așa cum a avut software-ul open-source asupra industriei tehnologice.

Pentru o descoperire a modelelor de IA deschise, ar fi necesare două lucruri

În al doilea rând, susținătorii inteligenței artificiale deschise ar trebui să aducă argumente mai convingătoare în favoarea siguranței acesteia. Perspectiva de a face disponibilă o tehnologie atât de puternică și generală pentru toată lumea stârnește îngrijorări întemeiate. Oren Etzioni, fostul director al Institutului Allen, consideră totuși că multe dintre aceste temeri sunt exagerate. El argumentează că informațiile accesibile prin modele de inteligență artificială nu sunt substanțial diferite de ceea ce este deja disponibil prin Google.

Până când riscurile și beneficiile potențiale ale furnizării deschise a tehnologiei AI vor fi investigate mai profund, preocupările vor persista.

Fă cele mai bune investiții ale vieții tale
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

De la 2 Euro asigurați

Știri